Ualink có nvlink của NVIDIA trong các hình chữ thập - thông số kỹ thuật cuối cùng hỗ trợ lên tới 1.024 GPU với băng thông 200 GT/s
Một trong những mục tiêu chính của UALink là tạo ra một hệ sinh thái kết nối cạnh tranh cho các bộ tăng tốc AI, nhằm cạnh tranh với công nghệ NVLink của Nvidia, cho phép công ty này xây dựng các giải pháp AI tối ưu hóa quy mô giá đỡ, như Blackwell NVL72. Với sự ra mắt của UALink 1.0, các công ty như AMD, Broadcom, Google và Intel sẽ có thể phát triển các giải pháp tương tự, sử dụng công nghệ tiêu chuẩn trong ngành thay vì các giải pháp độc quyền của Nvidia, giúp giảm chi phí.
Vào thứ Ba, Liên minh Ultra Accelerator Link đã chính thức công bố đặc tả UALink 1.0, cho phép các thành viên tiến hành sản xuất chip hỗ trợ công nghệ mới. Công nghệ kết nối này nhằm vào các bộ tăng tốc AI và HPC và được hỗ trợ bởi nhiều công ty lớn như AMD, Apple, Broadcom và Intel. Nó hứa hẹn sẽ trở thành tiêu chuẩn chính cho việc kết nối phần cứng này.
Thông số UALink 1.0 định nghĩa một giao tiếp tốc độ cao, độ trễ thấp cho các bộ tăng tốc, hỗ trợ tốc độ dữ liệu hai chiều tối đa 200 GTs mỗi kênh với tín hiệu 212.5 GTs để phù hợp với việc sửa lỗi và mã hóa. UALink có thể được cấu hình thành x1, x2 hoặc x4, với liên kết bốn kênh đạt tới 800 GTs cả chiều truyền và nhận. Một hệ thống UALink hỗ trợ tối đa 1.024 bộ tăng tốc GPU hoặc các thiết bị khác thông qua các Switch UALink, mỗi bộ tăng tốc được gán một cổng và một định danh duy nhất 10 bit để định tuyến chính xác.
Chiều dài cáp UALink được tối ưu hóa cho 4 mét, cho phép độ trễ vòng đi vòng lại 1 µs với tải trọng 64B640B. Các liên kết hỗ trợ hiệu suất xác định trên một đến bốn tủ rack. Ngăn xếp giao thức UALink bao gồm bốn lớp phần cứng tối ưu: vật lý, liên kết dữ liệu, giao dịch và giao thức. Lớp vật lý sử dụng các thành phần Ethernet tiêu chuẩn như 200GBASE-KR1CR1 và có các điều chỉnh để giảm độ trễ với FEC.
Lớp Liên Kết Dữ Liệu gói các flit 64 byte từ lớp giao dịch thành các đơn vị 640 byte, áp dụng CRC và logic retry tùy chọn. Lớp này cũng quản lý việc truyền tin giữa các thiết bị và hỗ trợ giao tiếp firmware kiểu UART. Lớp Giao Dịch thực hiện địa chỉ nén, tối ưu hóa việc truyền dữ liệu với hiệu suất giao thức lên đến 95% trong các tải công việc thực tế. Nó cũng cho phép các thao tác bộ nhớ trực tiếp như đọc, ghi và giao dịch nguyên tử giữa các bộ tăng tốc, bảo toàn thứ tự giữa các không gian bộ nhớ cục bộ và từ xa.
Giao thức UALink, được thiết kế cho các trung tâm dữ liệu hiện đại, hỗ trợ các tính năng bảo mật và quản lý tích hợp. Chẳng hạn, UALinkSec cung cấp mã hóa và xác thực trên phần cứng cho tất cả lưu lượng, bảo vệ chống lại sự can thiệp vật lý và hỗ trợ Tính toán Bảo mật thông qua các Môi trường Thực thi Tin cậy do người thuê kiểm soát như AMD SEV, Arm CCA và Intel TDX. Đặc tả này cho phép phân vùng Virtual Pod, trong đó các nhóm bộ tăng tốc được cô lập trong một Pod duy nhất thông qua cấu hình ở mức công tắc, cho phép thực hiện nhiều tác vụ từ nhiều người thuê trên hạ tầng chia sẻ.
Các pod UALink sẽ được quản lý thông qua phần mềm điều khiển và các tác nhân firmware chuyên dụng, sử dụng các giao diện chuẩn như PCIe và Ethernet. Quản lý toàn diện được hỗ trợ qua REST APIs, đo lường, kiểm soát khối lượng công việc và phân lập lỗi. Với việc phát hành thông số kỹ thuật UALink 200G 1.0, các công ty thành viên của UALink Consortium đang tích cực xây dựng một hệ sinh thái mở cho kết nối tăng cường quy mô, theo lời Peter Onufryk, Chủ tịch UALink Consortium.
Chúng tôi rất hào hứng chứng kiến sự đa dạng của các giải pháp sắp ra mắt trên thị trường, giúp phát triển các ứng dụng AI trong tương lai. Nvidia hiện đang dẫn đầu thị trường bộ tăng tốc AI nhờ vào hệ sinh thái mạnh mẽ và các giải pháp mở rộng. Công ty đang cung cấp các giá Blackwell NVL72 cho phép kết nối tới 72 GPU trong một giá, với các pod liên giá cho phép kết nối lên đến 576 GPU Blackwell B200 trong một pod.
Nvidia dự kiến sẽ ra mắt nền tảng Vera Rubin vào năm tới, cho phép sử dụng tới 144 GPU trong một giá. Đến năm 2027, Rubin Ultra sẽ mở rộng lên tới 576 GPU trong một giá. Các nền tảng chuyển mạch 400 Tbs dựa trên quang học silicon của Nvidia cho phép tạo ra các cụm với hàng triệu GPU.
Nguồn: www.tomshardware.com/tech-industry/ualink-has-nvidias-nvlink-in-the-crosshairs-final-specs-support-up-to-1-024-gpus-with-200-gt-s-bandwidth